Entropía (información)

Entropía (información)
En Teoría de la información la entropía es la magnitud que mide la información contenida en un flujo de datos, es decir, lo que nos aporta sobre un dato o hecho concreto. Por ejemplo, que nos digan que las calles están mojadas, sabiendo que acaba de llover, nos aporta poca información, porque es lo habitual. Pero si nos dicen que las calles están mojadas y sabemos que no ha llovido, aporta mucha información (porque no las riegan todos los días). Nótese que en el ejemplo anterior la cantidad de información es diferente, pese a tratarse del mismo mensaje: Las calles están mojadas. En ello se basan las técnicas de compresión de datos, que permiten empaquetar la misma información en mensajes más cortos.

Enciclopedia Universal. 2012.

Игры ⚽ Поможем написать курсовую

Mira otros diccionarios:

  • Entropía (información) — Saltar a navegación, búsqueda Para otros usos de este término, véase Entropía. Entropía es un concepto en termodinámica, mecánica estadística y teoría de la información. Los conceptos de información y entropía están ampliamente relacionados entre …   Wikipedia Español

  • Entropía — Para otros usos de este término, véase Entropía (desambiguación). Escultura dedicada a la Entropía en los jardines centrales de la Universidad de Monterrey, México En termodinámica, la entropía (simbolizada como S) es una magnitud física que… …   Wikipedia Español

  • Entropía (termodinámica) — Saltar a navegación, búsqueda La entropía describe lo irreversible de los sistemas termodinámicos. En termodinámica, la entropía (simbolizada como S) es la magnitud física que mide la parte de la energía que no puede utilizarse para producir… …   Wikipedia Español

  • Entropía de Shannon — Saltar a navegación, búsqueda La entropía definida por Shannon, referida a la teoría de la información, hace referencia a la cantidad media de información que contiene una variable aleatoria o, en particular, una fuente transmisión binaria. La… …   Wikipedia Español

  • Entropía cruzada — Saltar a navegación, búsqueda En teoría de la información, la entropía cruzada entre dos distribuciones de probabilidad mide la media de bits necesarios para identificar un evento de un conjunto de posibilidades, si un esquema de codificación… …   Wikipedia Español

  • Entropía de Kolmogórov — Saltar a navegación, búsqueda La entropía de Kolmogórov se define como principio que mide la pérdida de información a lo largo de la evolución del sistema. También es definida como la suma de exponentes de Liapunov. Tiene una gran importancia, en …   Wikipedia Español

  • Información — Para otros usos de este término, véase Información (periódico). En sentido general, la información es un conjunto organizado de datos procesados, que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe… …   Wikipedia Español

  • Entropía — (Del gr. entrope, vuelta.) ► sustantivo femenino 1 FÍSICA Magnitud termodinámica que indica el grado de desorden interno de un sistema. 2 SICOLOGÍA Medida que indica el grado de información no aprovechable de una fuente, en función del número de… …   Enciclopedia Universal

  • Información mutua — En teoría de la probabilidad, y en teoría de la información, la información mutua o transinformación de dos variables aleatorias es una cantidad que mide la dependencia mutua de dos variables. La unidad de medida más común de información mutua es …   Wikipedia Español

  • Teoría de la información — Este artículo está siendo desarrollado y forma parte de un proyecto educativo. Es posible que a causa de ello haya lagunas de contenido o deficiencias de formato. Si quieres puedes ayudar y editar, pero por favor antes de realizar correcciones… …   Wikipedia Español

Compartir el artículo y extractos

Link directo
Do a right-click on the link above
and select “Copy Link”